(Transcribed by TurboScribe.ai. Go Unlimited to remove this message.)

Buenos días, mi nombre es David Sancho Marco y este es mi vídeo de presentación del trabajo final de máster. En mi caso, Machine Learning y análisis cualitativo, predicción financiera y de negocio. Este trabajo aborda un desafío fundamental en el mundo empresarial. 

¿Cómo podemos predecir mejor el desempeño futuro de las empresas? Más específicamente, ¿cuándo tiene sentido invertir en análisis más complejos y costosos y cuándo basta con los análisis más simples? Empecemos viendo esto poniéndonos en la piel de analistas financieros, concretamente volando estas dos empresas. La empresa Adobe es un gigante del software creativo, con 240.000 millones de capitalización y es una empresa altamente optimizada y monitorizada. Sus operaciones son estables y consistentes.

Empresa B, Neogen, es una pequeña empresa de seguridad alimentaria, tiene 3.000 millones de capitalización y está en plena transición estratégica después de una fusión reciente. ¿Se debería aplicar el mismo método de análisis para ambas empresas? La respuesta, yo creo, es un sentido común, es no. Y aquí está el kit de la cuestión. 

Muchas herramientas y flujos de trabajos actuales de predicción financiera tratan a todas las empresas de la misma manera. Usan los mismos modelos, las mismas técnicas, sin considerar en profundidad el contexto específico de cada organización. A mi ver, esto genera errores costosos de predicción. 

Esta cuestión es uno de los núcleos de mi trabajo. Según mi investigación de la literatura académica, he identificado tres limitaciones que, a mi ver, el análisis financiero tradicional presenta hoy en día. La primera limitación es una fragmentación analítica. 

Los analistas examinan ratios de liquidez por un lado, proyecciones de crecimiento por otro, el análisis de riesgo por separado, cada emisión en sus propios hilos, sin interactuar, sin una visión integrada. La segunda limitación, yo creo, que son predicciones simplistas. La mayoría de pronósticos asumen tales de crecimiento promedio, constantes y tendencias lineales de estas predicciones. 

Por ejemplo, si creciste un 10% el año pasado, crecerás un 10% el próximo. Es un sesgo de normalidad y la realidad empresarial es mucho más compleja que eso en general. La tercera limitación diría que es la desconexión cualitativa en cuanto a métodos. 

Si sabemos qué factores como la calidad del equipo directivo, el posicionamiento estratégico o el contexto de mercado son cruciales para el futuro de una empresa, pues hay que contabilizarlo de alguna manera, pero rara vez se integran explícitamente en los modelos predictivos y computativos. En este caso es precisamente lo que se hace. El resultado de estas tres limitaciones, a mi ver, es que genera análisis incompletos, predicciones no tan exactas como podrían ser, decisiones subóptimas.

La respuesta a estas limitaciones es un sistema integrado. ¿Integrado de qué? De tres mundos, de tres aproximaciones. Primero, las técnicas tradicionales financieras, evidentemente, que han sido puestas en práctica con éxito relativo durante décadas. 

Técnicas como el análisis de ratios, de estados financieros, análisis de blocos de cajas. Una segunda aproximación integral serían los métodos avanzados de machine learning, con modelos como ARIMA, Allwinters, XGBoost, por ejemplo. Y luego arquitecturas de ensamble, recoger los puntos fuertes de cada uno y capturar patrones complejos y no lineales, todo eso. 

El tercero es la innovación principal de este trabajo, que es un marco de puntuación cualitativa, estructurado, que se centra en, digamos, seis dimensiones estratégicas clave que toda empresa puede presentar. La pregunta central de investigación, por tanto, es, ¿se puede integrar estos tres enfoques para mejorar la precisión predictiva de modelos cualitativos? Y comparando con los métodos tradicionales, los podemos usar como grupos de control, por decirlo así, como especie de benchmark, en base de la simplicidad mínima requerida para resultados aceptables y verla con práctica. Pasando a la metodología empleada. 

Para responder a la cuestión de mi investigación necesitaba datos rigurosos y deprecificados. Para conseguirlo trabajé con 12 empresas, cada una de ellas cotizaba a los Estados Unidos, y se seleccionaron por diversos tamaños, representatividad de todas las capitalizaciones posibles, digamos, desde 3.000 millones hasta 240.000 millones, pues Neogeo la más pequeña, Dadobe la más grande, pequeña, mediana, grande, mínimo. Luego en múltiples sectores conseguí cuatro, con la muestra que tenía, tecnología, salud, consumo, industria, venta y venta, y se quedaron muchos fuera, pero la muestra llega hasta donde llega. 

Y luego diversos perfiles, pues empresas maduras y estábiles, otras más jóvenes, empresas en crecimiento, empresas en transición. Se supone que cada una de las que se escogían, pues, diesen alguna particularidad o tuvieran algún aspecto que ofreciera riqueza al trabajo. Se implementaron cinco modelos individuales y tres de arquitecturas de ensamble. 

Los modelos tradicionales, pues, el que llame el knife o el genuo, pues, sería el representativo de los análisis financieros tradicionales, proyecciones de último valor observado, promedios, todo eso. Regresión lineal, pues, también muy sencillo, extrapolar las tendencias de crecimiento constantes en el tiempo. ARIMA, ya el primero de Machine Learning, un estándar académico para ser series temporales, pues, captura patrones de autocorrelación, tendencias estocásticas. 

Modelos ya más avanzados, Hall-Winters, presupuestado exponencial, para tendencias de especialidad, todo eso. FGBoost, Gradient Boosting, para las relaciones no lineales complejas, entre las últimas variables. Luego, ensambles, particularmente entre la Regresión Lineal, Winter Halls y luego FGBoost y ARIMA.

Ya respecto a mi marco cualitativo, y estas seis dimensiones que he mencionado, las podéis ver aquí. Visión estratégica de ejecución, calidad de gestión, contexto de mercado, resiliencia operacional, flexibilidad financiera y sentimiento. Diría que son cada una bastante autoexplicativas, pero vamos a ir un poco por encima. 

Visión estratégica de ejecución, responder a preguntas como, ¿tiene la empresa objetivos claros? ¿Ejecuta lo que promete? Etcétera. Calidad de gestión, pues, ¿qué nivel de competencia tiene el equipo directivo? ¿Están bien alineados los incentivos de dicho equipo con los de la empresa? No siempre es el caso. Ese tipo de cosas. 

El contexto de mercado, ¿qué tipo de industria está la empresa compitiendo? ¿Cuán desfavorable es su entorno? Ese tipo de cuestiones. En cuarto lugar, la resiliencia operacional. ¿Es robusta la cadena de suministros de la empresa? ¿Podría aguantar una disrupción y adaptarse a otras circunstancias adversas o capitalizar en circunstancias óptimas? Que no siempre es el caso. 

Pues eso. Flexibilidad financiera, ¿tiene la empresa acceso a capital? ¿Es sostenible la estructura de donar el tiempo? Y finalmente, sentimiento. Por ejemplo, ¿qué piensan los analistas, empleados, clientes, distintos aspectos de la empresa? La dimensión se puntúa sistemáticamente de escala 0 a 10 y el promedio de todas estas según el peso que le hemos dado.

La cuestión del peso, en los anexos hay discusión de por qué se usó esta y por qué no otra. Evidentemente lo mejor habría sido equilibrarlo empíricamente pero en algún momento el scope del trabajo tiene que limitarse porque si no es imposible. Pues eso.

El hecho de la puntuación final ajusta a las proyecciones de los modelos cuantitativos, los corrige a cierta medida. Entonces claro, el interés y la utilidad de las puntuaciones es como herramienta dependiente del contexto y por lo tanto capta unas sensibilidades que los modelos cuantitativos pueden no tener. Respecto a resultados, esto es lo que yo he llamado la curva nu, que no está muy bien visibilizada aquí pero ya hablaremos de ella. 

Cuando analicé los resultados lo que vi es algo que en principio me resultó contradictorio, que los ajustes cualitativos no funcionan mejor en empresas con mayor calidad en términos absolutos. Es decir, mayor puntuación, parece que hay una pérdida de precisión en las correcciones que hacíamos en la base de las dimensiones estratégicas cualitativas. De hecho encontré un indicio de que había una distribución específica, esto es lo que he llamado la curva nu, de que varios factores, o sea la capitalización en el sector y la puntuación si baja o alta, todas apuntaban a cierto punto pero cuando convergían hacia el estado que digo el efecto era mucho más notable. 

Empresas con puntuación baja, 3.5 de 4.7 sobre 10, ahí vemos que en general presentaban tastas de éxito bastante altas, 35%, puntuación media bajaba un 50% y puntuación alta el fracaso, sobre todo en empresas grandes parecía ir en escalada, un 67%. ¿Por qué es así? Argumentable, la explicación que abarjo es el efecto de lo que llaman la eficiencia de mercado, mercados eficientes. En empresas grandes y exitosas como Adobe los factores cualitativos ya están incorporados en los patrones históricos, los cuantitativos. 

Para Joaquín que hay factores como la inercia, el momento, la madurez o la estabilidad de su nicho de mercado y por la escala del funcionamiento, pues eso todo hace que esos factores estratégicos cualitativos queden más incorporados, más incluidos en las tendencias cualitativas. Por lo tanto, añade una corrección respecto a eso, lo único que hace es añadir ruido, ruido aplica factores o exagera las tendencias que ya están recogidas. En empresas pequeñas o en transición, en cambio, se da más una simetría de información, ahí los factores cualitativos son más, importan más a la hora de corrección, reflejan más puntos de inflexión, que tienen más importancia a la hora de determinar la dirección que va a tomar la empresa, ese tipo de cosas. 

Yo creo que es el punto más interesante de lo que me he ido encontrando. Aquí vemos ya casos concretos medidos, los de Neogen, tax de éxito de predicciones de 37,5%, la más alta observada, no sé si está bien, 75. Puede ser que hubo una errata aquí, pero bueno.

Pero sí, el ensamble, por ejemplo, el arreglo lineal con los Winterholds y el Exibus, el ensamble este consiguió una puntuación súper alta de 9,4 y redujo el error de predicción de ingresos de un 25% de error que tenía algunas de esas predicciones a un 1%, bastante increíble. Aunque bueno, ese es un caso concreto entre muchos varios que no fueron siempre mejor. Por ejemplo, Idex fue de un 4,6% de error a un 1% o así, y luego Nike, también tuvo una taxa, a pesar de ser tan grande, Nike es un caso en el que estaba en una situación estratégica bastante complicada y eso quedó un poco más recogido, llegó hasta un 71% de acierto en las predicciones, en modelos generales.

Pero eso no todo es éxito, en Adobe la cosa se degradó bastante, en métricas clave, en las predicciones y en la evaluación de ellas se vieron que operaban hasta un 20%. En Crocs lo similar, aunque creo que Crocs es porque el sector concreto de la moda va mucho por modas, por ciclos muy difíciles de predecir y entonces eso se reflejó en pérdidas de significancia estadísticas bastante notables. Yo creo que esos fracasos también son informativos, lo dicen cuando no aplica el marco de las estimaciones estratégicas y todo eso, y cuando renta utilizar los modelos complejos es precisamente que yo esperaba que el marco respetase la complejidad del mundo real y eso es precisamente lo que está haciendo, no todas las empresas necesitan análisis complejo y eso es lo que se está demarcando aquí.

En general yo diría que la tendencia tiende a mostrar que el contexto sectorial importa tanto como el tamaño de la empresa, dos factores, por eso lo llamo una U, que son simétricos. También una de las implicaciones prácticas que yo le veo al trabajo es que precisamente ayudan a los expertos a decidir cuándo se puede utilizar un tipo de modelos o de predicciones u otros, a aplicar el marco con computaciones que sean más de 5, computaciones más altas de 10.000 millones, empresas que estén en transición estratégica, fusiones, reestructuraciones, nuevos mercados, en sectores concretos como salud, tecnología o consumos discrecionales, y luego suelo usar modelos bases en computaciones más altas pero con capitación también más alta, con empresas estables y sectores, pues eso, todo lo que se deriva lógicamente de lo que hemos discutido antes. La aplicación selectiva, en los casos que estén entre medio, que puedan tener capitación alta por la puntuación baja, pues una evaluación de caso a caso en esos puntos.

Y respecto a conclusiones de trabajo general, pues yo creo que lo que se ve es que los ensambles de Machine Learning superaron los modelos individuales en general, los ajustes cualitativos añadieron un valor condicional, la efectividad depende de la eficacia del mercado y del sector, y podemos sistematizar de forma práctica cuándo y cómo emplear cada tipo de enfoque. Entonces, el modelo que hemos trabajado aquí no es una herramienta para todos los casos, es un marco que indica cuándo emplear la complejidad de modelos más ricos, más demandantes, y cuándo preferir análisis más parsimoniosos y que tiran más hacia la simplicidad. Y así, bueno, resultados consolidados, pues las validaciones fuertes en 30% de todos los casos, da una taxa de éxito global de 50%, que como he dicho antes, yo creo que respeta bien la complejidad y delimita dónde está cada caso a aplicar.

Finalmente, agradecimientos a mi tutor Rafael Luque Ocaña por el feedback durante todo este trayecto, a los profesores aquí graduando y a la Universidad Oberta de Cataluña por el conocimiento y los medios para ampliar todo ese tipo de, sí, para realizar este trabajo. Muchas gracias.

(Transcribed by TurboScribe.ai. Go Unlimited to remove this message.)